Aller au contenu principal
Fermer

Le Pentagone désigne Anthropic comme un risque pour la chaîne d'approvisionnement
information fournie par Reuters 06/03/2026 à 04:45

((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))

* Le label "risque pour la chaîne d'approvisionnement" entre en vigueur immédiatement

* Interdiction aux contractants du gouvernement d'utiliser la technologie d'Anthropic pour les travaux militaires américains

* Anthropic va contester la désignation devant les tribunaux

* Les entreprises peuvent toujours utiliser Claude dans des projets non liés au Pentagone

(Ajout du commentaire d'Amodei sur la portée étroite de la désignation du Pentagone dans les paragraphes 3 et 4) par Karen Freifeld et Deepa Seetharaman

Le Pentagone a officiellement désigné Anthropic, un laboratoire d'intelligence artificielle, comme présentant un risque pour la chaîne d'approvisionnement, limitant ainsi l'utilisation d'une technologie qui, selon une source, était utilisée dans le cadre d'opérations militaires en Iran. .

Le label "risque pour la chaîne d'approvisionnement", confirmé dans un communiqué par Anthropic, prend effet immédiatement et interdit aux contractants du gouvernement d'utiliser la technologie d'Anthropic dans le cadre de leur travail pour l'armée américaine.

Mais les entreprises peuvent toujours utiliser Claude d'Anthropic dans d'autres projets sans rapport avec le Pentagone, a écrit le directeur général Dario Amodei dans le communiqué. Il précise que la désignation a "une portée étroite" et que les restrictions ne s'appliquent qu'à l'utilisation de l'IA d'Anthropic dans le cadre de contrats avec le Pentagone.

"Elle ne s'applique clairement qu'à l'utilisation de Claude par des clients dans le cadre de contrats avec le ministère de la guerre, et non à toute utilisation de Claude par des clients qui ont de tels contrats."

La désignation du risque fait suite à un différend de plusieurs mois concernant l'insistance de l'entreprise sur les garanties que le ministère de la Défense, que l'administration Trump appelle le ministère de la Guerre, a jugé qu'elles allaient trop loin. Dans sa déclaration, Dario Amodei a réaffirmé que l'entreprise contesterait la désignation devant les tribunaux.

Ces derniers jours, Anthropic et le Pentagone ont discuté des plans possibles pour que le Pentagone cesse d'utiliser Claude, a déclaré Dario Amodei dans le communiqué de jeudi. Les deux parties ont discuté de la manière dont Anthropic pourrait continuer à travailler avec l'armée sans démanteler ses garanties, a-t-il ajouté.

Toutefois, dans un message publié sur X jeudi en fin de journée, le responsable de la technologie du Pentagone, Emil Michael, a déclaré qu'il n'y avait pas de négociations en cours entre le ministère de la Défense et Anthropic.

Dario Amodei a également présenté ses excuses pour une note interne publiée mercredi par le site d'information technologique The Information. Dans ce mémo, initialement écrit vendredi dernier, Amodei a déclaré que les fonctionnaires du Pentagone n'aimaient pas l'entreprise en partie parce que "nous n'avons pas fait l'éloge de Trump comme un dictateur".

La publication du mémo interne est intervenue alors que les investisseurs d'Anthropic s'efforçaient de limiter les dégâts causés par les retombées de l'entreprise avec le Pentagone.

Le ministère de la Défense n'a pas immédiatement répondu aux demandes de commentaires.

Cette action représente une réprimande extraordinaire de la part des États-Unis à l'encontre d'une entreprise technologique américaine qui a travaillé plus tôt que ses rivaux avec le Pentagone. Cette mesure intervient alors que le ministère continue de s'appuyer sur la technologie d'Anthropic pour soutenir des opérations militaires, notamment en Iran, selon une personne au fait du dossier.

Claude est probablement utilisé pour analyser les renseignements et aider à la planification des opérations.

Un porte-parole de Microsoft a déclaré que les juristes de l'entreprise avaient étudié la désignation et en avaient conclu que: "Les produits d'Anthropic, y compris Claude, peuvent rester à la disposition de nos clients - autres que le ministère de la Guerre - par l'intermédiaire de plateformes telles que M365, GitHub et Microsoft AI Foundry".

Microsoft peut continuer à travailler avec Anthropic sur des projets non liés à la défense, a ajouté le porte-parole.

Amazon, un investisseur dans Anthropic et un client important du modèle Claude de l'entreprise, n'a pas immédiatement répondu à une demande de commentaire en dehors des heures d'ouverture.

Maven Smart Systems de Palantir - une plateforme logicielle qui fournit aux armées des analyses de renseignements et des ciblages d'armes - utilise de multiples invites et flux de travail qui ont été construits en utilisant le code Claude d'Anthropic, a rapporté Reuters plus tôt.

Anthropic a été le plus agressif de ses rivaux à courtiser les responsables américains de la sécurité nationale. Mais l'entreprise et le Pentagone sont en désaccord depuis des mois sur la manière dont l'armée peut utiliser sa technologie sur le champ de bataille. Ce conflit a éclaté au grand jour au début de l'année.

Anthropic a refusé de revenir sur ses interdictions concernant l'utilisation de son IA Claude pour alimenter les armes autonomes et la surveillance de masse américaine. Le Pentagone a réagi en affirmant qu'il devrait être en mesure d'utiliser cette technologie en cas de besoin, à condition qu'elle soit conforme à la législation américaine.

L'étiquette "risque lié à la chaîne d'approvisionnement" confère désormais à Anthropic un statut que Washington avait jusqu'à présent réservé aux adversaires étrangers. Des mesures similaires ont été prises par les États-Unis pour retirer le géant technologique chinois Huawei des chaînes d'approvisionnement du Pentagone.

Valeurs associées

218,9400 USD NASDAQ +0,98%
410,6800 USD NASDAQ +1,35%

0 commentaire

Signaler le commentaire

Fermer

A lire aussi

Mes listes

Cette liste ne contient aucune valeur.
Chargement...